CUDA 指定设备的方法,CUDA

您所在的位置:网站首页 scanning for devices是什么意思 CUDA 指定设备的方法,CUDA

CUDA 指定设备的方法,CUDA

2024-07-05 08:58| 来源: 网络整理| 查看: 265

在进行pytorch 相关程序开发时,有时需要根据自己的规划使用系统中的多块NVidia GPU 设备,可以通过如下几种方法来指定GPU设备:

当服务器有多个GPU卡时,通过设置 CUDA_VISIBLE_DEVICES环境变量可以改变CUDA程序所能使用的GPU设备,默认情况下:标号为0的显卡为主卡。

GPU卡号编码规则

当主机有多个GPU设备时,设置CUDA_VISIBLE_DEVICES 环境变量可以改变CUDA程序所能使用的GPU设备。假如主机中有4块GPU设备,那么这些GPU设备的默认编号为[0,1,2,3],在默认情况下,编号为0的显卡为第一块卡。多卡设置规则如下:

设置示例意义说明CUDA_VISIBLE_DEVICES=1仅仅第二块卡对当前环境可见CUDA_VISIBLE_DEVICES=0,1 或者 CUDA_VISIBLE_DEVICES="0,1"仅仅第一块卡与第二块卡对当前环境可见,如果设置多块卡,可以添加引号,引号是可选的CUDA_VISIBLE_DEVICES=0,2,3仅仅GPU设备第一块,第三块,第四块 为可见,设备第二块不可见

备注规则: CUDA应用运行时,CUDA将遍历当前可见的设备,并从零开始为可见设备编号。 第一种情况,卡1设置为主卡,但CUDA遍历时会设置为可见编号0。 最后一种情况,设备0,2,3将显示为设备0,1,2。 如果将字符串的顺序更改为“2,3,0”,则设备2,3,0将分别被设置为0,1,2。 如果为CUDA_VISIBLE_DEVICES 设置了不存在的设备,所有实际设备将被隐藏,CUDA 应用将无法使用GPU设备;如果设备序列是存在和不存在设备的混合,那么不存在设备前的所有存在设备将被重新编号,不存在设备之后的所有设备将被屏蔽。 当前可见的(重新编号后的)设备可使用CUDA 程序来查看,代码如下:

import torch print(torch.cuda.current_device())

下面说明如何设置GPU卡的使用

一、临时设置

1.1、通过命令提前设置环境变量 #Linux: 后面的值为要使用的GPU编号,正常的话是从0开始 export CUDA_VISIBLE_DEVICES=0 #windows: set CUDA_VISIBLE_DEVICES=0 1.2、在Python代码中设置环境变量 import os # 仅设置一块可见 os.environ['CUDA_VISIBLE_DEVICES'] = '0' # 设置多块可见 os.environ['CUDA_VISIBLE_DEVICES'] = '0,2,3' 1.3、在命令行前指定 CUDA_VISIBLE_DEVICES=0 python some-app.py 二、永久设置

通过编辑 ~/.bashrc 文件来永久设置,系统启动时将加载 ~/.bashrc 文件,达到自动设置的目的。

export CUDA_VISIBLE_DEVICES=1,2,3

然后通过 如下命令刷新环境变量

. ~/.bashrc

三、使用torch.cuda接口  import torch #当前可见的(重新编号后的)设备可使用如下代码来查看 print(torch.cuda.current_device()) torch.cuda.set_device(0) #或者 使用pytorch的并行GPU接口 net = torch.nn.DataParallel(model, device_ids=[0]) #确定GPU的个数 count = torch.cuda.device_count() #决策使用哪个设备 device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") #把一个模型放到GPU上 device = torch.device("cuda:0") model.to(device) 四、使用torch.nn.DataParallel

多卡数据并行一般使用torch.nn.DataParallel

torch.nn.DataParallel(model,device_ids) ''' 使用的GPU一定是编号连续的 其中model是需要运行的模型,device_ids指定部署模型的显卡,数据类型是list/device。 device_ids中的第一个GPU(即device_ids[0])和model.cuda()或torch.cuda.set_device()中的第一个GPU序号应保持一致,否则会报错 举例: ''' torch.nn.DataParallel(model, device_ids=device_ids) torch.nn.DataParallel(modul, device_ids=[x1,x2,x3,x4,x5,x6,x7]) torch.nn.DataParallel(model,device_ids = range(torch.cuda.device_count()) )

此外如果两者的第一个GPU序号都不是0,比如设置为:

''' 如下代码,程序可以在GPU2和GPU3上正常运行。 device_ids的默认值是使用可见的GPU,不设置model.cuda()或torch.cuda.set_device()等效于设置了model.cuda(0) ''' model=torch.nn.DataParallel(model,device_ids=[2,3]) model.cuda(2) #模型绑定GPU代码 model = model.cuda() device_ids = [0, 1] model = torch.nn.DataParallel(model, device_ids=device_ids)



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3